Информации хранение - определение. Что такое Информации хранение
Diclib.com
Словарь ChatGPT
Введите слово или словосочетание на любом языке 👆
Язык:

Перевод и анализ слов искусственным интеллектом ChatGPT

На этой странице Вы можете получить подробный анализ слова или словосочетания, произведенный с помощью лучшей на сегодняшний день технологии искусственного интеллекта:

  • как употребляется слово
  • частота употребления
  • используется оно чаще в устной или письменной речи
  • варианты перевода слова
  • примеры употребления (несколько фраз с переводом)
  • этимология

Что (кто) такое Информации хранение - определение

ПОЛИТИКА, ПРЕДПОЛАГАЮЩАЯ РЕГУЛИРОВАНИЕ ПРОДАЖИ ПСИХОАКТИВНЫХ ВЕЩЕСТВ
Хранение наркотиков
Найдено результатов: 144
Информации хранение      

процесс передачи информации во времени, связанный с обеспечением неизменности состояний материального носителя информации (бумаги, фотоплёнки, магнитной ленты, перфокарты и т. п.). В общем случае И. х. основывается на свойстве запоминающего устройства (См. Запоминающее устройство) обладать определённой памятью. В частном случае И. х. представляется как хранение документов. И. х. тесно связано с информационным поиском (См. Информационный поиск) и поэтому должно осуществляться с обязательным соблюдением принципа адресности и предусматривать возможность вывода информации из запоминающего устройства и её воспроизведения в той или иной форме.

НОСИТЕЛЬ ДАННЫХ         
  • Заполненная перфокарта
Информационный носитель; Носители информации; Носитель данных; Электронный носитель информации; Цифровой носитель; Электронные носители информации; Digital media; Digital Media
физическое тело или среда, используемые для записи и хранения информации в системах автоматической и автоматизированной обработки информации. Распространены носители данных в виде перфокарт и перфолент, магнитных лент и дисков, оптических дисков, фотопластинок и фотопленок и др., на которые информация записывается посредством изменения их формы, магнитных, оптических и иных свойств. Применяют в системах звуко- и видеозаписи, ЭВМ, информационно-поисковых системах, станках-автоматах и др.
носитель информации         
  • Заполненная перфокарта
Информационный носитель; Носители информации; Носитель данных; Электронный носитель информации; Цифровой носитель; Электронные носители информации; Digital media; Digital Media
физическое тело (пленка, бумага или другой материал), на котором тем или иным способом производится запись и накопление информации для последующего использования; машинный Н. и. обеспечивает возможность непосредственного ввода информации в электронную вычислительную машину.
Носитель информации         
  • Заполненная перфокарта
Информационный носитель; Носители информации; Носитель данных; Электронный носитель информации; Цифровой носитель; Электронные носители информации; Digital media; Digital Media

машинный, носитель записи, тело, вещество, используемое для записи и накопления информации с целью непосредственного ввода её в ЭВМ. Н. и. является промежуточным звеном между машиной и первичными документами, содержащими числовые данные, текстовые материалы, схемы, графики и т.п.; с Н. и. можно относительно просто считывать информацию и преобразовывать её в электрические сигналы, необходимые для работы ЭВМ. Н. и. различают по физической структуре (магнитные, полупроводниковые, диэлектрические), типу материала (бумажные, пластмассовые, металлические, комбинированные), форме представления данных (печатные, рукописные, магнитные, перфорационные), принципу считывания данных (механические, оптические, магнитные, электрические), конструктивному исполнению (ленточные, дисковые, карточные). Информация записывается на Н. и. посредством изменения физических, химических или механических свойств запоминающей среды (см. Запись и воспроизведение информации, Запоминающее устройство). Примерами широко распространённых Н. и. могут служить перфорационные карты (См. Перфорационная карта), перфорационные ленты (См. Перфорационная лента), магнитные ленты (См. Магнитная лента). Основные недостатки перфокарт и перфолент - ограниченная информационная плотность записи (до 102 бит на 1 см2) и малая механическая прочность. Магнитные ленты имеют значительно большую информационную плотность записи (до 105 бит на 1 см2) и допускают многократное использование (многократную перезапись на одних и тех же участках ленты).

Лит.: Савета Н. Н., Устройства ввода и вывода информации универсальных электронных цифровых вычислительных машин, М., 1971; Анисимов Б. В., Хомяков К. С., Устройства подготовки данных для электронных вычислительных машин. М., 1972.

А. В. Гусев.

Носитель информации         
  • Заполненная перфокарта
Информационный носитель; Носители информации; Носитель данных; Электронный носитель информации; Цифровой носитель; Электронные носители информации; Digital media; Digital Media
Носи́тель информа́ции (информацио́нный носи́тель) — любой материальный объект или среда, используемый человеком, способный достаточно длительное время сохранять (нести) в своей структуре занесённую на него информацию, без использования дополнительных устройств (например, источника энергии).
Теория информации         
  • Схема системы связи
РАЗДЕЛ ПРИКЛАДНОЙ МАТЕМАТИКИ, РАДИОТЕХНИКИ И ИНФОРМАТИКИ, ОТНОСЯЩИЙСЯ К ИЗУЧЕНИЮ СВОЙСТВ ИНФОРМАЦИИ
Информации теория; Математическая теория связи; Теория передачи информации
Теория информации — раздел прикладной математики, радиотехники (теория обработки сигналов) и информатики, относящийся к измерению количества информации, её свойств и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, теория оперирует математическими моделями, а не реальными физическими объектами (источниками и каналами связи).
Аура (система защиты информации)         
  • Загрузка системы защиты информации «Аура» в доверенной среде
  • Настройка блокировки консоли системы защиты информации «Аура» в доверенной среде
Аура (средство защиты информации)
«Аура» — система защиты информации от несанкционированного доступа. Разработана и выпускается Научно-исследовательским отделом проблем информационной безопасности Санкт-Петербургского института информатики и автоматизации РАН (СПИИРАН).
Информации теория         
  • Схема системы связи
РАЗДЕЛ ПРИКЛАДНОЙ МАТЕМАТИКИ, РАДИОТЕХНИКИ И ИНФОРМАТИКИ, ОТНОСЯЩИЙСЯ К ИЗУЧЕНИЮ СВОЙСТВ ИНФОРМАЦИИ
Информации теория; Математическая теория связи; Теория передачи информации

математическая дисциплина, исследующая процессы хранения, преобразования и передачи информации (См. Информация). И. т. - существенная часть кибернетики (См. Кибернетика). В основе И. т. лежит определённый способ измерения количества информации, содержащейся в каких-либо данных ("сообщениях"). И. т. исходит из представления о том, что сообщения, предназначенные для сохранения в запоминающем устройстве (См. Запоминающее устройство) или для передачи по каналу связи, не известны заранее с полной определённостью. Заранее известно лишь множество, из которого могут быть выбраны эти сообщения, и в лучшем случае - то, как часто выбирается то или иное из этих сообщений (т. е. вероятность сообщений). В И. т. показывается, что "неопределённость", с которой сталкиваются в подобной обстановке, допускает количественное выражение и что именно это выражение (а не конкретная природа самих сообщений) определяет возможность их хранения и передачи. В качестве такой "меры неопределённости" в И. т. принимается число двоичных знаков, необходимое для фиксирования (записи) произвольного сообщения данного источника. Более точно - рассматриваются все возможные способы обозначения сообщений цепочками символов 0 и 1 (двоичные коды), удовлетворяющие условиям: а) различным сообщениям соответствуют различные цепочки и б) по записи некоторой последовательности сообщений в кодированной форме эта последовательность должна однозначно восстанавливаться. Тогда в качестве меры неопределённости принимают среднее значение длины кодовой цепочки, соответствующее самому экономному способу кодирования (См. Кодирование); один двоичный знак служит единицей измерения (см. Двоичные единицы).

Пример. Пусть некоторые сообщения x1, x2, x3 появляются с вероятностями, равными соответственно 1/2, 3/8, 1/8. Какой-либо слишком короткий код, скажем

x1 = 0, x2 = 1, x3 = 01,

непригоден, так как нарушается вышеупомянутое условие б). Так, цепочка 01 может означать x1, x2 или x3. Код

x1 = 0, x2 = 10, x3 = 11,

удовлетворяет условиям а) и б). Ему соответствует среднее значение длины кодовой цепочки, равное

Нетрудно понять, что никакой другой код не может дать меньшего значения, т. е. указанный код - самый экономный. В соответствии с выбором меры неопределенности, неопределенность данного источника сообщении следует принять равной 1,5 двоичной единицы.

Здесь уместно подчеркнуть, что термины "сообщение", "канал связи" и т. п. понимают в И. т. очень широко. Так, с точки зрения И. т., источник сообщений описывается перечислением множества x1, x2,... возможных сообщений (которые могут быть словами какого-либо языка, результатами измерений, телевизионными изображениями и т. п.) и соответствующих им вероятностей p1, p2,...

Нет никакой простой формулы, выражающей точный минимум H' среднего числа двоичных знаков, необходимого для кодирования сообщении x1, x2,..., xn через вероятности p1, p2,..., pn этих сообщений. Однако указанный минимум не меньше величины

(где log2a обозначает логарифм числа a при основании 2) и может превосходить её не более чем на единицу. Величина Н (энтропия множества сообщений) обладает простыми формальными свойствами, а для всех выходов И. т., которые носят асимптотический характер, соответствуя случаю H' → ∞, разница между H и H' абсолютно несущественна. Поэтому именно энтропия принимается в качестве меры неопределённости сообщений данного источника. В приведённом выше примере энтропия равна

С изложенной точки зрения, энтропия бесконечной совокупности оказывается, как правило, бесконечной. Поэтому в применении к бесконечным совокупностям поступают иначе. Именно, задаются определённым уровнем точности и вводят понятие ε - энтропии, как энтропии сообщения, записываемого с точностью до ε, если сообщение представляет собой непрерывную величину или функцию (например, времени); подробнее см. в ст. Энтропия.

Так же как и понятие энтропии, понятие количества информации, содержащейся в одном случайном объекте (случайной величине, случайном векторе, случайной функции и т. д.) относительно другого, вводится сначала для объектов с конечным числом возможных значений. Затем общий случай изучается при помощи предельного перехода. В отличие от энтропии, количество информации, например, в одной непрерывно распределённой случайной величине относительно другой непрерывно распределённой величины очень часто оказывается конечным.

Понятие канала связи (см. Канал) в И. т. носит весьма общий характер. По сути дела, канал связи задаётся указанием множества "допустимых сообщений" на "входе канала", множеством "сообщений на выходе" и набором условных вероятностей получения того или иного сообщения на выходе при данном входном сообщении. Эти условные вероятности описывают влияние "помех", искажающих передаваемые сообщения, "Присоединяя" к каналу какой-либо источник сообщений, можно рассчитать количество информации относительно сообщения на входе, содержащееся в сообщении на выходе. Верхняя грань таких количеств информации, взятая по всем допустимым источникам, называется пропускной способностью (ёмкостью) канала. Ёмкость канала - его основная информационная характеристика несмотря на влияние (возможно сильное) помех в канале, при определённом соотношении между энтропией поступающих сообщений и пропускной способностью канала возможна почти безошибочная передача (при надлежащем кодировании, см. Шеннона теорема).

И. т. отыскивает оптимальные, в смысле скорости и надежности, способы передачи информации, устанавливая теоретические пределы достижимого качества. Как видно из предыдущего, И. т. носит существенно статистический характер, и поэтому значительная часть ее математических методов заимствуется из теории вероятностей.

Основы И. т. были заложены в 1948-49 американским ученым К. Шенноном. В ее теоретические разделы внесен вклад советским учеными А. Н. Колмогоровым и А. Я. Хинчиным, а в разделы, соприкасающиеся с применениями, - В. А. Котельниковым, А. А. Харкевичем и др.

Лит.: Яглом А. М., Яглом И. М., Вероятность и информация, 2 изд., М., 1960; Шэннон К., Статистическая теория передачи электрических сигналов, в кн.: Теория передачи электрических сигналов при наличии помех. Сб. переводов, М., 1953; Голдман С., Теория информации, пер. с англ., М., 1957; Теория информации и её приложения. Сб. переводов, М., 1959; Хинчин А. Я., Понятие энтропии в теории вероятностей, "Успехи математических наук", 1953, т. 8, в. 3; Колмогоров А. Н., Теория передачи информации, М., 1956, (АН СССР. Сессия по научным проблемам автоматизации производства. Пленарное заседание); Питерсон У. У., Коды, исправляющие ошибки, пер. с англ., М., 1964.

Ю. В. Прохоров.

ИНФОРМАЦИИ ТЕОРИЯ         
  • Схема системы связи
РАЗДЕЛ ПРИКЛАДНОЙ МАТЕМАТИКИ, РАДИОТЕХНИКИ И ИНФОРМАТИКИ, ОТНОСЯЩИЙСЯ К ИЗУЧЕНИЮ СВОЙСТВ ИНФОРМАЦИИ
Информации теория; Математическая теория связи; Теория передачи информации
(иногда - сообщений теория) , раздел кибернетики, в котором математическими методами изучаются способы измерения количества информации, содержащейся в каких-либо сообщениях, и ее передачи.
Несанкционированный доступ         
Несанкционированный доступ к информации; НСД; Неправомерный доступ к компьютерной информации; Перехват информации; Утечка информации; Утечка данных
Несанкционированный доступ — доступ к информации в нарушение должностных полномочий сотрудника, доступ к закрытой для публичного доступа информации со стороны лиц, не имеющих разрешения на доступ к этой информации. Также несанкционированным доступом в отдельных случаях называют получение доступа к информации лицом, имеющим право на доступ к этой информации в объёме, превышающем необходимый для выполнения служебных обязанностей.

Википедия

Политика в отношении наркотиков

Политика в отношении наркотиков — это политика правительства в отношении контроля и регулирования лекарственных средств, которые считаются опасными и которые вызывают привыкание. Правительства пытаются бороться с наркоманией путем контроля спроса и предложения наркотических веществ. А также направляют усилия на смягчение последствий наркомании. Для уменьшения спроса на наркотики правительства вводят штрафы, тюремное заключение за преступления, связанные с наркотическими веществами и принудительное лечение наркоманов. Также государства проводят специальные кампании для осведомления населения о вреде наркотиков. Для сокращения предложения правительства, контролируют насаждения растений, используемых для производства наркотиков, а также прилагают усилия для задержания нарко-курьеров.

Список наркотических веществ, которые подлежат контролю, меняется в зависимости от политики конкретной страны. Например, героин контролируется фактически везде. В то же время такие вещества как: кат и кодеин не всегда подлежат государственному контролю.

Большинство правительств также регулируют отпускаемые по рецепту лекарственные препараты, которые не считаются опасными, но могут вызвать привыкание.

Что такое Информ<font color="red">а</font>ции хран<font color="red">е</font>ние - определение